CoSAI : les grands noms de l’IA se coalisent autour des questions de sécurité

Google, OpenAI, Microsoft, Amazon, NVIDIA et Intel ont créé un lobby sur les questions de sécurité dans l'intelligence artificielle : Coalition for Secure AI (CoSAI).

L'annonce a été faite jeudi 18 juillet par l'Organization for the Advancement of Structured Information Standards (OASIS), le consortium mondial de standardisation de formats de fichiers qui épaule la nouvelle coalition.

D'autres entreprises comme Amazon, Anthropic, Cisco, Chainguard, Cohere, GenLab et Wiz les ont rejointes.

« Pour garantir la confiance dans l'IA et favoriser un développement responsable, il est essentiel de développer et de partager des méthodologies qui maintiennent la sécurité au premier plan, identifient et atténuent les vulnérabilités potentielles des systèmes d'IA et conduisent à la création de systèmes sécurisés dès la conception », explique la coalition.

Commentaires (5)


Pas Apple dedans ?
J'ai eu un peu de mal à trouver ce qu'englobait le mot sécurité pour eux. J'ai trouvé ça (il faut cliquer sur Read More) :
The scope of this project is broad by design and is intended to include topics related to securely building, integrating, deploying and operating AI systems, with the goal of mitigating security risks specific to AI systems.

Examples of these risks include stealing the model, data poisoning of the training data, injecting malicious inputs through prompt injection, scaled abuse prevention, membership inference attacks, model inversion attacks or gradient inversion attacks to infer private information, and extracting confidential information from the training data.

The project does not envision the following topics as being in scope: misinformation, hallucinations, hateful or abusive content, bias, malware generation, phishing content generation or other topics in the domain of content safety.
Le 3e extrait indique clairement leurs priorités

hypo

Le 3e extrait indique clairement leurs priorités
Non, c'est assez normal que ça ne soit pas de la sécurité des systèmes d'IA. Ce n'est pas une histoire de sécurité et d'autres mesures servent à se prémunir de ces points.
Pas mal pour bien passer des lois pour noyauter le marché.
Fermer